-
1 метод максимальной апостериорной гипотезы
Statistics: maximum a-posteriori selection (http://dic.academic.ru/dic.nsf/ruwiki/310411), MAP (maximum a-posteriori probable), MAPS (maximum a-posteriori selection)Универсальный русско-английский словарь > метод максимальной апостериорной гипотезы
См. также в других словарях:
Maximum likelihood — In statistics, maximum likelihood estimation (MLE) is a method of estimating the parameters of a statistical model. When applied to a data set and given a statistical model, maximum likelihood estimation provides estimates for the model s… … Wikipedia
Maximum parsimony — Maximum parsimony, often simply referred to as parsimony, is a non parametric statistical method commonly used in computational phylogenetics for estimating phylogenies. Under maximum parsimony, the preferred phylogenetic tree is the tree that… … Wikipedia
Probable — Probabilité La probabilité (du latin probabilitas) est une évaluation du caractère probable d un évènement. En mathématiques, l étude des probabilités est un sujet de grande importance donnant lieu à de nombreuses applications. La probabilité d… … Wikipédia en Français
Maximum parsimony (phylogenetics) — Parsimony is a non parametric statistical method commonly used in computational phylogenetics for estimating phylogenies. Under parsimony, the preferred phylogenetic tree is the tree that requires the least evolutionary change to explain some… … Wikipedia
Classification naïve bayesienne — La classification naïve bayésienne est un type de classification Bayésienne probabiliste simple basée sur le théorème de Bayes avec une forte indépendance (dite naïve) des hypothèses. Elle met en œuvre un classifieur bayésien naïf, ou classifieur … Wikipédia en Français
Algorithme De Viterbi — L algorithme de Viterbi, d Andrew Viterbi, permet de corriger les erreurs survenues lors d une transmission à travers un canal bruité (dans une certaine mesure). Son utilisation s appuie sur la connaissance du canal bruité (la probabilité qu une… … Wikipédia en Français
Algorithme de Viterbi — L algorithme de Viterbi, d Andrew Viterbi, permet de corriger, dans une certaine mesure, les erreurs survenues lors d une transmission à travers un canal bruité. Son utilisation s appuie sur la connaissance du canal bruité, c est à dire la… … Wikipédia en Français
Algorithme de viterbi — L algorithme de Viterbi, d Andrew Viterbi, permet de corriger les erreurs survenues lors d une transmission à travers un canal bruité (dans une certaine mesure). Son utilisation s appuie sur la connaissance du canal bruité (la probabilité qu une… … Wikipédia en Français
List of mathematics articles (M) — NOTOC M M estimator M group M matrix M separation M set M. C. Escher s legacy M. Riesz extension theorem M/M/1 model Maass wave form Mac Lane s planarity criterion Macaulay brackets Macbeath surface MacCormack method Macdonald polynomial Machin… … Wikipedia
Naive Bayes classifier — A naive Bayes classifier is a simple probabilistic classifier based on applying Bayes theorem with strong (naive) independence assumptions. A more descriptive term for the underlying probability model would be independent feature model . In… … Wikipedia
Information De Fisher — L information de Fisher est une notion de statistique introduite par R.A. Fisher qui quantifie l information relative à un paramètre contenue dans une distribution. Soit f(x;θ) la distribution de vraisemblance d une grandeur x (qui peut être… … Wikipédia en Français